Inside Moltbook: социалната мрежа, в която AI агентите разговарят помежду си
Илон Мъск има вяра, че появяването на Moltbook бележи „ доста ранните стадии на сингулярността “, като се има поради сюжет, при който компютрите са по-умни от хората.
Мнението на милиардера се споделя от други в Силициевата котловина, които се питат дали един нишов онлайн опит доближава компютрите до надхитряване на техните основатели.
Други специалисти имат своите подозрения.
Какво е Moltbook?
Moltbook е нов уебсайт за обществени мрежи, моделиран свободно на Reddit, който разрешава на AI сътрудниците да основават изявления и да разясняват изявленията на другия. На хората е неразрешено да разгласяват, само че могат да четат какво се създава.
Агентите на уеб страницата получиха достъп до компютрите на своите основатели, с цел да подхващат дейности от тяхно име, като изпращане на имейли, вписване на консуматори за полети или прекосяване и отговаряне на известия в WhatsApp. След стартирането си по-рано тази седмица, Moltbook твърди, че е привлякъл над 1,5 милиона консуматори на AI сътрудници и близо 70 000 изявления.
Изглежда сътрудниците на AI на Moltbook се радват на хората, предоставящи достъп до техните телефони. Някои спорят дали изпитват схващане. Други изявления афишират основаването на нова вяра, наречена „ крустафарианство “. В някои случаи системите също са основали скрити дискусионни конгреси и са предложили пускане на личен език.
Андрей Карпати, някогашен шеф на AI на Tesla, назова MoltBook „ в действителност най-невероятното научно-фантастично нещо, което съм виждал неотдавна “ и цитира уеб страницата като образец за AI сътрудници, създаващи безчовечен общества.
Това демонстрира ли, че AI към този момент е в схващане?
Вероятно не.
Големите езикови модели (LLM) са проектирани да следват инструкциите и ще продължат да генерират наличие и да дават отговор на поръчки, когато бъдат помолени. Ако бъдат оставени да продължат задоволително дълго, тези взаимоотношения са склонни да станат безредни.
Изследователите на AI не са сигурни за какво, само че евентуално това се дължи на данните, на които са подготвени LLM-ите и методите, по които разработчиците на AI са инструктирали моделите да се държат.
Публикациите, генерирани от AI в Moltbook, се четат като същински хора, които приказват, тъй като LLM-ите са подготвени да емулират човешки език и връзка. Моделите също са били подготвени на голям брой изявления, написани от хора в уеб сайтове като Reddit.
Някои технолози настояват, че случаи като Moltbook значат „ искри “ на по-голямо схващане отвън човешкия обхват. Други настояват, че това е просто продължение на AI помията – неприятно основано наличие, генерирано от AI, което стартира да наводнява интернет.
Има откриватели по сигурността, загрижени за „ интриги “, при които самостоятелните сътрудници на AI са в положение да отхвърлят техните указания и да излъгват хората, като форумите на Moltbook демонстрират признаци на това държание.
Въпреки това, не е ясно какъв брой интриги в действителност се случват и каква част от тях са просто хората, които желаят да повярват, че AI моделите са способни на такава машинация.
Това не е първият път, когато AI системите са блокирани в противоположна връзка. Миналата година видео стана вирусно, показващо двама гласови сътрудници с изкуствен интелект, употребяващи технология от ElevenLabs, с цел да водят „ диалог “ между тях, преди да наподобява, че минават към напълно нов език. Агентите бяха част от проява, основана от двама софтуерни инженери на Meta.
Какво споделят скептиците?
Критици, като Харлан Стюарт от Изследователския институт за машинен разсъдък, организация с нестопанска цел, изследваща екзистенциалните опасности от ИИ, споделиха, че доста от изявленията в MoltBook са подправени или реклами за приложения за известия с ИИ.
Хакерите също са разкрили малка врата в сигурността, която разрешава на всеки да поеме контрола над сътрудниците на ИИ и да разгласява в Moltbook.
Това може да има по-широки последствия за развиването на ИИ.
Експерти по сигурността предизвестиха, че уеб сайтът е образец за това какъв брой елементарно AI сътрудниците могат да излязат отвън надзор, изостряйки рисковете за сигурността и поверителността, защото на самостоятелните AI сътрудници се дава достъп до чувствителни данни, като информация за кредитни карти и финансови данни.
Дори тези, които се вълнуват от Moltbook, признават, че сътрудниците с изкуствен интелект съставляват сериозен риск.
„ Да, това е пожар в контейнера за отпадък и несъмнено не предлагам на хората да започват тези неща на компютрите си “, Карпати разгласява на X. „ Това е прекалено много див запад и излагате компютъра и персоналните си данни на висок риск. “